Home
2026
23 posts
01-24
深層学習による交換相関汎関数の構築:Skalaアーキテクチャの数理と物理的意義
01-20
Nested Learning (NL): 深層学習アーキテクチャの再解釈と連続的学習への数理的アプローチ
01-15
反応条件予測における機械学習の限界:文献データの「人気」と化学的本質の乖離
01-11
大規模言語モデルにおけるChain-of-Thought Promptingの数理的定式化と推論能力の創発に関する考察
01-11
Graph of Thoughts: 大規模言語モデルにおける任意のグラフ構造を用いた推論プロセスの数理的定式化と実証
01-11
大規模言語モデルの推論におけるSelf-Consistency: 数理的定式化と多様な推論パスの周辺化による精度向上
01-11
SELF-REFINE: 大規模言語モデルにおける自己フィードバックを用いた反復的精緻化の数理と実証
01-11
Tree of Thoughts: 大規模言語モデルにおける意図的推論と探索アルゴリズムの統合的枠組み
01-11
大規模言語モデルにおける「思考の連鎖」の不忠実性:推論プロセスの乖離と正当化に関する包括的分析
01-11
TransformerアーキテクチャにおけるSelf-Attention機構の数理的定式化と系列変換タスクへの適用
01-10
『The Matrix Cookbook』Page 8完全解読:行列微分の構造・証明・応用
01-09
AdaDerivative: 「勾配の変化」を見ることでオーバーシュートを抑制する新手法
01-09
Cautious Optimizers: 「たった1行の修正」でAdamを高速化するC-AdamWの衝撃
01-09
Lion: AIが自ら発見した「単純ゆえに最強」のオプティマイザ
01-09
Adam: 適応的モーメント推定に基づく確率的最適化手法の理論的構造と実証的評価
01-09
Eve: 目的関数の変動情報をフィードバックする適応的勾配降下法の拡張
01-09
勾配降下法に基づく最適化アルゴリズムの数理的構造と収束特性に関する包括的レビュー
01-09
Interactive Optimization Playground: Exploring Gradient Descent Algorithms on Complex Landscapes
01-09
RAdam: 学習率の分散を「整流」する、Warmup不要のAdam進化形
01-09
Schedule-Free Learning: 学習率スケジュールからの解放と最適化の新地平
01-09
AdaBelief: 勾配への「確信度」で歩幅を変える、AdamとSGDのいいとこ取り
01-09
YellowFin: 運動量項の自動チューニングによるMomentum SGDのロバスト化
01-03
機械学習ポテンシャル構築におけるString Methodの役割:高品質データサンプリングと第一原理精度の両立